home *** CD-ROM | disk | FTP | other *** search
/ Internet Info 1994 March / Internet Info CD-ROM (Walnut Creek) (March 1994).iso / inet / ietf / njm / njm-minutes-92nov.txt < prev    next >
Text File  |  1993-02-17  |  10KB  |  277 lines

  1.  
  2. CURRENT_MEETING_REPORT_
  3.  
  4. Reported by Gene Hastings/PSC
  5.  
  6. Minutes of the Joint Network Joint Management Working Group (NJM)
  7.  
  8. Below are the combined Minutes for NJM and Network Status Report.
  9.  
  10. Announcements:  Due to the number of presenters, there was an extension
  11. of Network Status Reports into part of the NJM session.  Supplementary
  12. notes for the NETSTAT portion, as well as presentation slides can be
  13. found in Section 3 of the Proceedings.
  14.  
  15. There was positive feedback after both sessions for having combined
  16. presentations and discussions spurred by them.  Consequently the
  17. sessions will be more tightly coupled in the future.
  18.  
  19. Mark Knopper, Jordan Becker - Merit/ANS T3 Network Status
  20.  
  21. A number of refinements and enhancements are planned, including RS960
  22. FDDI deployment, and routing software changes such that an ENSS will not
  23. announce 140.222 if it is isolated from the backbone.
  24.  
  25. Changes in backbone internal configuration are planned to minimize
  26. coast-to- coast delay.  Jordan said he will put the PostScript version
  27. of the delay map on line.  (also included in Proceedings)
  28.  
  29. Change tonight (17 November):  CLNP will become encapsulated, [in one of
  30. the T1 PSPs] and transferred over IP, instead of being switched in a
  31. native stack.  This is part of the migration plan to move all remaining
  32. traffic from the T1 net to the T3.  It will initially remain on T1 net.
  33.  
  34. General notes and announcements:
  35.  
  36.  
  37.    o EASInet at CERN will have an ENSS, connected to NY.
  38.    o Traffic Source/Destination pair statistics are sampled, with a
  39.      frequency of 1 in 50.
  40.    o Am map showing the T3 backbone with the T1 backup net is available
  41.      online.  Question:  Do you have priority queuing for management
  42.      traffic?  - Not yet; AIX 3.2 will have priority queuing for routing
  43.      traffic.
  44.    o The MTU in the backbone is set to 1500 on most interfaces.  With
  45.      deployment of new interfaces, many are being changed to 4000.  ENSS
  46.      FDDI can do MTU discovery.  The deployment strategy is designed to
  47.      avoid fragmentation on Ethernet interfaces, at the potential cost
  48.      of inefficient FDDI use in the short term.
  49.    o The dismantling of the T1 backbone circuits begins 12/2 Within CNSS
  50.      PoPs, there are DSU upgrades planned, granting multipoint
  51.      capability, and redundancy within PoP.
  52.  
  53.                                    1
  54.  
  55.  
  56.  
  57.  
  58.  
  59.    o Merit/ANS have issued an invitation to users, vendors and
  60.      developers to come to the ANS test net to test interoperability of
  61.      new BGP support.
  62.  
  63.  
  64. Milo Medin - NASA Science Internet
  65.  
  66. An upgraded, year-round link to McMurdo base in Antarctica will be
  67. through ARC2.  It was a seasonal 56kb, and has been upgraded to full
  68. time 384kb via IntelSat IV Lessons learned from NSI operations:  Don't
  69. encapsulate (DECNOT) on 56kb lines.
  70.  
  71. NSI Currently does DECNOT on TCP. Doing it over UDP was a lose.
  72.  
  73. DEC NSP is ``broken'' the way TCP used to be w.r.t.  retransmission.
  74. With DECNOT, TCP does retransmission, and NSP does not have to.
  75.  
  76. NSI network management is migrating to MSU (but not MCC) (``Polycenter
  77. 2000'')
  78.  
  79. Future efforts:
  80.  
  81.  
  82.    o Awaiting Commerce Dept.  OK for ``Export of Internet'' to Russia to
  83.      allow network links to same and other parts of FSU.
  84.    o NASA participation with DoE ATM will have connections at Langley,
  85.      Lewis, Goddard, Ames, JPL - AGS+.
  86.  
  87.  
  88. Bernhard Stockman, EBONE
  89.  
  90. There is now a security access scheme in EBONE routers (Amalgam of
  91. Kerberos and TACACS). There will probably be a 256kb link from Bonn to
  92. Stockholm.
  93.  
  94. Network Joint Management - 19 November 1992
  95.  
  96. Bob Collet - Sprint
  97.  
  98. Sprint operates three internets, with Internet connectivity.
  99.  
  100.  
  101.   1. SprintLink (Domestic US)
  102.   2. ICMnet-2 (Atlantic)
  103.   3. ICMnet-3 (Pacific)
  104.  
  105.  
  106. Sprint uses cisco except in some private nets it uses Wellfleet.  There
  107. are nine domestic customers, and nine more being provisioned.  Will be
  108. demonstrating T3 P-P at COMNET '93 in February 1993.  Most of the
  109. routers are owned by Sprint.  There is some customer owned equipment,
  110. but only at customer premises.  Sprint has management responsibility and
  111. sole configuration control of customer router.
  112.  
  113.                                    2
  114.  
  115.  
  116.  
  117.  
  118.  
  119. Rich Fisher - GSFC
  120.  
  121. Project group at Goddard Space Flight Center does data acquisition from
  122. satellites, and redistributes it to numerous terrestrial labs.  RAC :==
  123. Remote Analysis Computer (All VAX) All links provided by PSCN (NASA
  124. ``phone co.'')
  125.  
  126. Tony Hain - ESnet
  127.  
  128. [There are no accompanying slides for this presentation.]  The
  129. Department of Engergy's (DoE) original high speed RFP was two years ago,
  130. and began review in February 1992.  An award was made to Sprint, with
  131. TRW and cisco as subcontractor.  A protest was filed so the procurement
  132. is on hold.  The General Accounting Office's (GAO) 90 day timer expires
  133. December 23rd.  The GAO will say nothing before then...Therefore there
  134. will be a three month delay in deployment.
  135.  
  136. Initially access will be provided at T3, eventually a mix, up to OC-12.
  137. All local loops will be fiber.  It is NOT a managed router service.  The
  138. DoE and NASA will accept raw ATM. The router will be a cisco AGS+ with a
  139. CSC-4 processor and HSSI interface for T3.  The router will connect via
  140. Digital Link CSUs.  A new router will be needed to go beyond T3 rates.
  141. The net will do IP and CLNP. Planners are trying to figure out DECNET
  142. Phase IV, and negotiating with DEC to make Phase V genuinely be CLNP (as
  143. opposed to being only close).  They are still discussing which IGP to
  144. use.  (contemplating OSPF and IBGP).
  145.  
  146. Six DoE sites are planned as part of the initial project:
  147.  
  148.  
  149.   1. Lawrence Livermore National Laboratory
  150.   2. Lawrence Berkeley Laboratory
  151.   3. Los Alamos National Laboratory
  152.   4. FermiLab
  153.   5. Oak Ridge
  154.   6. Superconducting Supercollider, Waxahatchie, TX.
  155.  
  156.  
  157. Continued plans call for the eventual connection of all ESnet sites, but
  158. sites that are not currently connected to ESnet will not necessarily be
  159. connected directly.  If they were already being considered for a T1,
  160. they may get a connection.
  161.  
  162. In addition, there are 5 NASA planned as well:
  163.  
  164.  
  165.   1. Langley Air Force Base
  166.   2. NASA Lewis Research Center
  167.   3. Goddard Space Flight Center
  168.   4. Ames Research Center
  169.   5. Jet Propulsion Lab
  170.  
  171.  
  172. Mark Knopper asks:  What is the plan and timeline for testing vs.
  173.  
  174.                                    3
  175.  
  176.  
  177.  
  178.  
  179.  
  180. production?
  181.  
  182.  
  183.    o Service will be brought up off-line
  184.    o Several sites will be cut into ESnet
  185.    o Procurement includes an off-line testbed
  186.  
  187.  
  188. Since NASA and DoE will be sharing a fabric, they will eventually move
  189. their peering to this net (vs.  at FIXes) There will be several logical
  190. subnets on the fabric:
  191.  
  192.  
  193.    o DoE internal
  194.    o NASA internal
  195.    o DoE-NASA ``Phantom DMZ'' for peering.
  196.  
  197.  
  198. SDSC has gotten funding from NSF to participate.  Will initially be part
  199. of the DoE subnet.  Tony will have more technical information in January
  200. (encapsulation, etc.).
  201.  
  202. Mark Knopper:  ERNET.(India Research And Education Net).
  203.  
  204. ERNET folks visited several US operators and Internet researchers,
  205. including Merit.  Funded by Indian Government and the United Nations.
  206.  
  207. Phase III (refer to slides) uses VSAT for domestic networking due to
  208. inadequacy of domestic telecomm IP and CLNP over X.25.  128kb up, and
  209. 512kb down
  210.  
  211. Original connection was Alternet UUCP, dialup uucp, analog leased uucp,
  212. analog leased SLIP (and improved UUCP performance, as TCP is better at
  213. line utilization) usually had > 20MB of mail in their queue.
  214.  
  215. Use mostly Cisco MGS, some CGS. Currently has 1 class B network,
  216. nationwide...
  217.  
  218. NJM Discussion
  219.  
  220.  
  221.    o Route aggregation, BGP4 deployment can you do it?
  222.    o Does there exist a CIDR traceroute?  does anyone know how to
  223.      interpret one?
  224.    o Dennis Ferguson says that as a transition plan, it is easier for
  225.      the midlevel to do route aggregation than the backbone.  He
  226.      suggests that such clients advertise both explicit routes and an
  227.      aggregated route.  The Backbone will install the explicit routes,
  228.      and announce only the aggregated one.
  229.    o Continued from BGP Deployment Working Group.  (See also BGPDEPL
  230.      Minutes):  Ref.  Claudio Topolcic's timeline.  Must examine
  231.      transition to CIDR - Tools?  If operators do not do BGP4 by (date),
  232.  
  233.                                    4
  234.  
  235.  
  236.  
  237.  
  238.  
  239.      they will need to accept default only from backbone.  What is that
  240.      date?  If Merit's deployment plan works, it may be December 31,
  241.      1993.
  242.    o ROAD transition issues.  Who really needs to do BGP4?  Many
  243.      ``stub'' or tail nets will not need to soon.  What is the
  244.      operational impact of dinosaurs?  Will they really die out?  Can we
  245.      afford to sustain them?
  246.  
  247.  
  248. Attendees
  249.  
  250. Henry Clark              henryc@oar.net
  251. Robert Collet            rcollet@icm1.icp.net
  252. John Curran              jcurran@bbn.com
  253. Tom Easterday            tom@cic.net
  254. Dennis Ferguson          dennis@ans.net
  255. Richard Fisher           rfisher@cdhf1.gsfc.nasa.gov
  256. Vince Fuller             vaf@stanford.edu
  257. Tony Hain                alh@es.net
  258. Eugene Hastings          hastings@psc.edu
  259. Mark Knopper             mak@merit.edu
  260. Kim Long                 klong@sura.net
  261. Matt Mathis              mathis@a.psc.edu
  262. David O'Leary            doleary@cisco.com
  263. Andrew Partan            asp@uunet.uu.net
  264. Marsha Perrott           mlp+@andrew.cmu.edu
  265. Tom Sandoski             tom@concert.net
  266. Bernhard Stockman        boss@ebone.net
  267. Claudio Topolcic         topolcic@cnri.reston.va.us
  268. William Warner           warner@ohio.gov
  269. Evan Wetstone            evan@rice.edu
  270. Chris Wheeler            cwheeler@cac.washington.edu
  271. Linda Winkler            lwinkler@anl.gov
  272. Paul Zawada              Zawada@ncsa.uiuc.edu
  273.  
  274.  
  275.  
  276.                                    5
  277.